大規模言語 model (LLM)
大規模言語モデル - Wikipedia
ディープラーニング - Wikipedia
生成的人工知能 - Wikipedia
GPT (generative pre-trained transformer)
GPT (言語モデル) - Wikipedia
GitHub Copilot - Wikipedia
誤差逆傳播法 (逆傳播)
バックプロパゲーション - Wikipedia
自動微分 - Wikipedia#トップダウン型自動微分
確率的勾配降下法 - Wikipedia
最急降下法 - Wikipedia
transformer
Transformer (機械学習モデル) - Wikipedia
Transformer (deep learning architecture) - Wikipedia
Transformer: アテンションが主要部品の系列変換モデル [深層学習] | CVMLエキスパートガイド
perceptron
パーセプトロン - Wikipedia
多層パーセプトロン - Wikipedia
neuron
神経細胞 - Wikipedia
樹状突起 - Wikipedia
シナプス - Wikipedia
ニューラルネットワーク - Wikipedia
人工神経 - Wikipedia
$ y=\varphi\left(\sum_{i=1}^m w_i x_i+b\right)
入力$ x_1,\dots,x_m
重み附け$ w_1,\dots,x_m
bias 項$ b
出力$ y
活性化函數 (activation function。傳達函數 (transfer function))
活性化関数 - Wikipedia
非線形函數
ReLU 函數$ x_+
形式ニューロン - Wikipedia
$ y=H\left(\sum_{i=1}^m w_i x_i-h\right)
Heaviside の階段函數$ H
閾値$ h
全か無かの法則 - Wikipedia
ヘッブの法則 - Wikipedia
ヘブ則 - 脳科学辞典
注意機構 (attention mechanism)
アテンション (機械学習) - Wikipedia
系列変換モデルとアテンション機構 [seq2seq から Transformer まで] | CVMLエキスパートガイド
擴散 model (diffusion model)
拡散モデル - Wikipedia
Diffusion model - Wikipedia
DALL-E - Wikipedia
Sora (人工知能モデル) - Wikipedia
Stable Diffusion - Wikipedia
Midjourney - Wikipedia
NovelAI - Wikipedia
prompt engineering
agentic workflow
MCP (model context protocol)
llms.txt
LangChainLangChain.icon
OpenTelemetryOpenTelemetry.icon
semconv
Semantic Conventions for Generative AI systems | OpenTelemetry
OpenLLMetry
Open-source Observability for LLMs with OpenTelemetry
traceloop/openllmetry: Open-source observability for your LLM application, based on OpenTelemetry
CosenseCosense.icon
infobox
Export for AI
/help-jp/Smart Context